E D R , A S I H C RSS

Full text search for " URL "

URL


Search BackLinks only
Display context of search results
Case-sensitive searching
  • html5/offline-web-application . . . . 22 matches
          * 웹 어플리케이션을 구성하는 HTML 파일이나 CSS, JavaScript, 이미지 파일 등 URL을 지정하여 브라우조로 액세스하는 파일.
          * 캐시 매니페스트의 URL을 html 요소의 manifest 속성에 지정해야 한다.
          * 상대 경로를 이용할 때는 매니페스트를 기준으로 하여 URL를 표시한다.
          * 모든 URL은 메인 페이지와 같은 도메인에 소속되어야 한다.
          * 캐시할 리소스의 URL을 지정하기 위한 섹션이다.
          * 지정된 URL의 리소스가 없을 때 이를 대신할 리소스를 지정하는 섹션이다.
          * 맨 처음 폴백 대상이 되는 URL을 적고 공백이나 탭 뒤에 대체 리소스의 URL을 적는다.
          * 폴백 대상이 되는 URL은 전방일치 검색 방식으로 확인된다.
          * 하나의 URL이 여러 개의 폴백 URL에 일치할 때는 가장 긴 폴백 URL이 적용된다.
          * NETWORK 섹션 안에 지정된 URL과 일치하는 리소스는 캐시되지 않고 반드시 네트워크를 통해 액세스를 시도한다.
          * NETWORK 섹션에 지정된 URL은 전방일치 검색 방식으로 확인된다.
          * '/api/user'나 '/api/friend'등의 URL은 어느 것이든 반드시 온라인으로 액세스하게 된다.
          * NETWORK 섹션에 지정한 URL이 다른 섹션 내용과 충돌할 경우 브라우저에 따라 예측하지 못하는 동작을 보일 때도 있다.
          * NETWORK 섹션에 지정한 대상 URL은 특정 디렉터리 이하로 한정하는 등 신경을 써야 한다.
          * NETWORK 섹션에 지정된 URL
          * 오프라인 웹 어플리케이션이 액세스할 수 있는 URL을 화이트 리스트 형식으로 지정한다.
          * 네트워크로 액세스할 URL을 같은 도메인으로 한정하고 URL도 한정하면 보안을 향상시킬 수 있고 디버그하기도 쉬워진다.
          * NETWORK 섹션에 '*'만 지정하여 모든 URL에 대해 네트워크 액세스를 '원칙적 금지'에서 '원칙적 허가'로 변경할 수 있다.
  • JavaHTMLParsing/2011년프로젝트 . . . . 15 matches
         import java.net.URL;
          import java.net.URLConnection;
          import java.net.MalformedURLException;
          public class URLConn{
          URL url;//URL 주소 객체
          URLConnection connection;//URL접속을 가지는 객체
          InputStream is;//URL접속에서 내용을 읽기위한 Stream
          //URL객체를 생성하고 해당 URL로 접속한다..
          url = new URL("http://www.hufslife.com/");
          connection = url.openConnection();
          }catch(MalformedURLException mue){
          System.err.println("잘못된 URL입니다. 사용법 : java URLConn http://hostname/path]");
  • JavaScript/2011년스터디/URLHunter . . . . 15 matches
         [http://probablyinteractive.com/url-hunter URLHunter]를 만들어보자!!
         http://joojis.net/urlhunter.php
          location.href="./urlhunter.php#"+str+"||| time:"+(30-time);
          location.href="./urlhunter.php#Game Over";
          <script language ="Javascript" src ="URLHunterV1.js"></script>
          * URLHunterV1.js
          setInter = setInterval("URLChange();",100);
         var CrtURL = (document.URL.indexOf('#') == -1)? document.URL+'#': document.URL.slice(0,document.URL.indexOf('#')+1);
         var URLChange = function(){
          location.href = CrtURL + " You caught \'" + map.r.join('') + "\'";
          location.href = CrtURL + " "+timer.t +"|" + map.s.join('') + "|"+timer.t + " You caught \'" + map.r.join('') + "\'";
          * url-hunter.html
          <title>URL Hunter</title>
          <script type="text/javascript" src="url-hunter.js"></script>
          * url-hunter.js
         var url;
          //getURL
          url = location.href;
          location.href= url + "#" + time + "|" + toString() + "|" + time;
          * url-hunter.css
  • Kongulo . . . . 12 matches
         import urllib
         import urllib2
         import urlparse
         # Matches URLs in <a href=...> tags. Chosen above htmllib.HTMLParser because
         class NoExceptionHandler(urllib2.BaseHandler):
         class PasswordDb(urllib2.HTTPPasswordMgr):
         # A URL opener that can do basic and digest authentication, and never raises
         opener = urllib2.build_opener(urllib2.HTTPBasicAuthHandler(passwords),
          urllib2.HTTPDigestAuthHandler(passwords),
         opener.handlers[0].proxies = urllib.getproxies()
          def __init__(self, url):
          f = opener.open(url)
         class UrlValidator:
          URL. This is based on the type of the URL (only crawl http URLs) and robot
          def __init__(self, match_url):
          self.robots = {} # Dict of robot URLs to robot parsers
          self.match_url = re.compile(match_url)
          def IsCrawlable(self, url):
          """Returns true if it's OK to crawl the absolute URL provided."""
          if not url.startswith('http') or not self.match_url.match(url):
  • HelpOnLinking . . . . 8 matches
         외부 링크는 {{{http://kldp.org}}}같이 그대로 적어놓으면 '''자동'''으로 http://moniwiki.kldp.org 라고 링크가 걸립니다. 여기서 주의할 점은, 링크를 적을때 한글 토씨를 그냥 붙여 적을 경우에 한글까지 링크가 걸리게 됩니다. 이럴 경우에는 {{{[http://moniwiki.kldp.org]}}}라고 적으면 [http://moniwiki.kldp.org]와 같이 '''강제'''로 링크될 URL을 지정해줘서 자동으로 링크가 걸리지 않게 합니다. 강제로 링크를 걸러줄 경우는 모니위키에서는 그 링크 앞에 작은 지구 아이콘이 생깁니다.
         만약 URL의 끝 부분이 이미지의 확장자일 경우는 ("{{{.gif}}}", "{{{.jpg}}}" or "{{{.png}}}") 그림이 그 위치에 삽입되게 됩니다.
         앞부분에서도 언급한 내용이지만, 자동으로 링크가 걸릴 경우 URL 주소 되에 공백을 넣어주거나, <http://moniwiki.kldp.org/wiki.php/FrontPage>와 같이 연결해주어야 합니다. 정리해보면
          * URL뒤에 공백을 넣는다.
         지원되는 URL 형식: `http:`, `https:`, `ftp:`, `nntp:`, `news:`, `mailto:`, `telnet:`, `file:`. (이것을 확장하는 방법은 HelpOnConfiguration 참조)
          * [[http://링크 http://...이미지URL]]
          * [[http://링크 http://...이미지URL]]
          * [[wiki:페이지이름 http://...이미지URL]]
  • JavaScript/2011년스터디/CanvasPaint . . . . 8 matches
          if(lastImage1!=element.toDataURL()){
          lastImage1=element.toDataURL();
         var dataURL;
          dataURL = canvas.toDataURL();
          img.src = dataURL;
          dataURL = canvas.toDataURL();
  • AcceleratedC++/Chapter6 . . . . 7 matches
          === 6.1.3 Finding URL ===
         #ifndef GUARD_urls_h
         #define GUARD_urls_h
         std::vector<std::string> find_urls(const std::string& s);
         #include "urls.h"
         bool not_url_char(char);
         string::const_iterator url_end(string::const_iterator, string::const_iterator);
         string::const_iterator url_beg(string::const_iterator, string::const_iterator);
         vector<string> find_urls(const string& s)
          b = url_beg(b, e);
          // get the rest of the \s-1URL\s0
          iter after = url_end(b, e);
          // remember the \s-1URL\s0
          // advance `b' and check for more \s-1URL\s0s on this line
         string::const_iterator url_end(string::const_iterator b, string::const_iterator e)
          return find_if(b, e, not_url_char);
         bool not_url_char(char c)
          // characters, in addition to alphanumerics, that can appear in a \s-1URL\s0
          static const string url_ch = "~;/?:@=&$-_.+!*'(),";
          // see whether `c' can appear in a \s-1URL\s0 and return the negative
  • JavaScript/2011년스터디/7월이전 . . . . 5 matches
          * 오늘은 PairProgramming으로 [http://probablyinteractive.com/url-hunter URLHunter]를 만들어보았는데 setInterval 함수를 사용하여 계속 페이지 주소를 바꿔주는 부분까지 성공했습니다. 처음에는 setTimeout 함수를 사용해서 생각처럼 제대로 작동하지 않았어요. 다음주엔 새내기가 스터디에 합류할텐데 매우 기대됩니다. 우리가 했던것들을 설명해주고 같이 [http://probablyinteractive.com/url-hunter URLHunter]를 만들어보려고 해요. 시간이 너무 걸리지 않도록 어떻게 접근할지 주말에 미리 생각해보겠습니다. - [김수경]
          * PairProgramming으로 위의 주소로 들어가면 보이는 URLHunter를 만드는데 도전하였습니다. 제가 혼자 생각할 때에는 어디서부터 어떻게 접근해야 할지 막막했었는데 Pair로 하니까 점점 먼가가 되가는것 같았어요. 어떻게 하면 주소창을 마음데로 조작 할 수 있는지 더 고민해 봐야겠습니다. - [박정근]
          * [JavaScript/2011년스터디/URLHunter]
          * 오늘은 새 멤버가 두명 합류했습니다. 기쁘기도 하고 앞으로 스터디를 어떻게 진행해야할지 고민도 조금 되네요! /URLHunter는 점점 그럴듯해지고 있습니다. 지난시간에 문제가 됐던 부분을 해결했어요. 다만 급하게 문제를 해결해나가느라 코드가 지저분해진 게 문제네요. 다음주에 기능이 다 구현될 것 같은데 코드 정리도 좀 해야겠습니다. - [김수경]
  • ProjectPrometheus/CookBook . . . . 5 matches
         Python 에서는 urllib 와 httplib 를 이용한다. Python document 의 httplib - examples 를 참조하면 GET 의 예와 POST 의 예가 나온다.
         Java 에서는 HttpURLConnection 을 이용한다. 관련 코드는 http://www.javafaq.nu/tips/servlets/index.shtml 를 참조.
         === HttpUrlConnection 에서 GET,POST 넘길때 주의사항 ===
         Python 에서의 string.urlencode 과 마찬가지로 GET,POST 로 넘기기 전 파라메터에 대해 URL Encoding 이 필요하다. URLEncoder 라는 클래스를 이용하면 된다.
         import java.net.URLEncoder;
         URLEncoder.encode (paramString, "UTF-8");
          <init-param url="jdbc:mysql://서버주소:서버IP/reference 이름"/>
  • Spring/탐험스터디/2011 . . . . 5 matches
          1.1 RESTful : 이기종간 통신. RESTful 웹서비스는 리소스 URI를 알면 웹서버와 웹클라이언트의 종류에 상관없이 HTTP 프로토콜만으로 접근 가능한 서비스라 할 수 있다. 리소스 하나에 하나의 URL을 할당해놓았다.
          at java.net.URLClassLoader$1.run(URLClassLoader.java:202)
          at java.net.URLClassLoader.findClass(URLClassLoader.java:190)
  • ZeroWiki/제안 . . . . 5 matches
         === ZeroWiki URL ===
          * ZeroWiki의 URL에 대한 의견을 받습니다.
          각 URL에 대한 여러분의 의견을 적어주세요.
          * wiki.php라는 URL이 예쁘지 않음... - [변형진]
          * / -> XE, /wiki -> Wiki 이면 URL이 섞일 수 있어 XE를 /xe 로 이동하는 것도 고려해야 함 - [변형진]
  • java/reflection . . . . 5 matches
          public static void main(String[] args) throws MalformedURLException, ClassNotFoundException, InvocationTargetException, IllegalAccessException, InstantiationException, NoSuchMethodException {
          URLClassLoader urlClassLoader = new URLClassLoader(
          new URL[]{
          new URL("file:/Users/fharenheit/Projects/openflamingo/helloworld.jar")
          Thread.currentThread().setContextClassLoader(urlClassLoader);
  • MoinMoinTodo . . . . 4 matches
          * Macro that lists all users that have an email address; a click on the user name sends the re-login URL to that email (and not more than once a day).
          * Send a regular "changes" mail? (checkbox, plus frequency setting hourly/daily/weekly/etc.)
          * On request, send email containing an URL to send the cookie
          * Link icon to IsbnInfo page, and the ISBN number itself to the main URL
          * Document all MoinMoinUrlSchemes (i.e. action=whatever)
          * On request, send email containing an URL to send the cookie (i.e. login from a click into the email)
  • html5/canvas . . . . 4 matches
         == 이미지를 URL로 얻기 ==
          * 캔버스가 가진 toDataURL()을 호출하여 캔버스 내용을 URL로 얻어올 수 있다.
          * toDataURL(type)
  • JavaScript/2011년스터디 . . . . 3 matches
          * [박정근] - URLHunter를 짜기는 다 했지만 timeout을 구현하지 않았더라구요. 그 부분을 더 첨가해 보고 또, prototype을 통해 상속받는 구조로 코드를 고치는게 더 좋을 것 같아 구조를 약간 변경시켜 보았습니다.(결국 스파케티를 요리하게 되었지만;;;) 그리고 또 한가지 추가하고 싶은 것은 몬스터의 형태를 바꾸어 글자를 출력하게 하는 것인데 어떻게 될지는 모르겟지만 한번 해 보아야지요ㅎㅎ
          * [김태진] - 부산에 갔다오는 바람에 저번주는 스터디를 못하고 이번주에 다시 들어왔습니다. URL헌터를 완성해오는게 숙제였던거 같은데, 저는 하지 않고 왔습니다- 나중에는 자기가 짠 것을 고치거나 못짠사람은 완성하는 것을 했는데, 배열 문법구조가 C와 달라 에러가 떠 코드가 산으로 갈뻔했죠... arr.join('')이라는 것을 통해서 기본 틀을 짜는데는 성공했으니 다음시간까지는 a를 먹도록은 짜 봐야겠네요. 하지만 다른사람들과는 다르게 객체지향적일거 같지는 않아요. 우선 구현에 의의를 두고 열심히 짜봐야겠네요;;
          * [정진경] - URL헌터의 밸런스를 조금 수정하고 php, mysql과 연동하여 랭크 기능을 넣었습니다. 자바스크립트 변수를 POST를 통해 다른 페이지로 보내는데 성공하긴 했는데 새로고침하면 POST 데이터가 살아남아있어서 데이터가 중복해서 들어가는 문제가 생기네요. 짜고 보니 코드가 썩 깔끔하진 못하지만, 우선 구현하는데에 익숙해지도록 노력해봐야겠네요.
  • MoinMoinDiscussion . . . . 3 matches
         '''A''': See the {{{~cpp [[Icon]]}}} macro; besides that, fully qualified URLs to the wiki server work, too.
          * '''R''': The Icon macro worked well. I wanted to avoid the fully qualified URL because to access the Wiki in question requires password authentication. Including an image using the full URL caused my webserver (Apache 1.3.19) to reprompt for authentication whenever the page was viewed or re-edited. Perhaps a default {{{~cpp [[Image]]}}} macro could be added to the distribution (essentially identical to {{{~cpp [[Icon]]}}} ) which isn't relative to the data/img directory. (!) I've actually been thinking about trying to cook up my own "upload image" (or upload attachment) macro. I need to familiarize myself with the MoinMoin source first, but would others find this useful?
  • MoinMoinFaq . . . . 3 matches
          * Get the URL for the document,
          * Type in the URL where you want it in the document
         link will take the user to the URL when clicked on. Here's an example:
         You can include a url to the image in the page. Example:
  • StructuredText . . . . 3 matches
          * Text encloded by double quotes followed by a colon, a URL, and concluded by punctuation plus white space, *or* just white space, is treated as a hyper link. For example:
          '''Note:''' This works for relative as well as absolute URLs.
          * Text enclosed by double quotes followed by a comma, one or more spaces, an absolute URL and concluded by punctuation plus white space, or just white space, is treated as a hyper link. For example:
  • WikiTextFormattingTestPage . . . . 3 matches
         Remote references are created by inserting a number in square brackets, they are not automatically numbered. To make these links work, you must go to Wiki:EditLinks and fill in URLs.
         Here is a .gif URL for testing: http''''''://c2.com/sig/wiki.gif (This link disabled by 6 single quotes after the http.)
         In WardsWiki the URL for a remote reference in the [number] syntax must be entered using EditLinks. The image is placed where the [number] is located.
  • 일반적인사용패턴 . . . . 3 matches
         위키위키의 장점중 하나로 자유로운 링크에 있습니다. 기본적으로 auto link를 지원하므로 해당 위키 페이지 링크 뿐만 아니라 다른 웹 페이지의 링크도 자유롭습니다. (쓰다가 보면 가끔 위키 내에서 다른 페이지로 날라가기 허다해진다는. --;) 위키페이지 링크는 [[ "해당페이지이름" ]] 을 하시면 되고, 일반 웹 페이지는 URL을 그냥 입력해주시면 됩니다.
          * 페이지를 삭제하지 않은 경우 - 한쪽 창에서 상단 오른쪽의 파란아이와 짝짝이 안경(?)을 클릭하시면 해당 페이지의 히스토리와 페이지의 수정내용을 알 수 있습니다. 일단 파란아이를 눌러서 복구하고 싶은 버전을 View 하십시오. 그 다음, URL 입력창에서 action=recall 을 action=raw로 바꾼 후 해당 내용을 다시 복사하시면 됩니다. (이때는 Frame 안에서 작업하지마시고, 위키 페이지를 직접 전체화면으로 하여 해당 URL이 보이는 상태에서 작업하십시오.)
  • 임시 . . . . 3 matches
         base URLs : http://webservices.amazon.com/onca/xml?Service=AWSECommerceService
         REST allows you to make calls to ECS by passing parameter keys and values in a URL (Uniform Resource Locator). ECS returns its response in XML (Extensible Markup Language) format. You can experiment with ECS requests and responses using nothing more than a Web browser that is capable of displaying XML documents. Simply enter the REST URL into the browser's address bar, and the browser displays the raw XML response.
  • Eclipse/PluginUrls . . . . 2 matches
          * Update URL : http://subclipse.tigris.org/update
          * Update URL : http://www.kyrsoft.com/updates/
  • Google/GoogleTalk . . . . 2 matches
         use URI::URL;
          my $unencoded_url = 'http://www.google.com/search?hl=ko&num=10&q='.$q;
          my $url = URI::URL->new($unencoded_url);
          print "unencoded: " . $unencoded_url ."\n" if $debug;
          print "encoded: " . $url->as_string . "\n" if $debug;
          my $response = $browser->get($url->as_string, 'User-Agent'=>'Mozilla' );
  • Googling . . . . 2 matches
         || link || 주어진 URL의 링크를 포함한 모든 페이지를 보여줍니다 ||
         || allinurl || URL 링크에서 존재하는 문장을 통해서 검색한다. ||
  • HelpMiscellaneous . . . . 2 matches
         === UrlMappings ===
         특정 URL을 fix해주는 기능을 제공합니다. 예를 들어 과거의 {{{http://foobar.org}}}였던 링크가 최근에 {{{http://foobar.com}}}으로 바뀌었다면 이를 UrlMappings에 등록해서 자동으로 잘못된 URL 정보를 fix할 수 있게 해줍니다. 이 기능은 단지 대치만 해주기 때문에 실제로 페이지 내용이 바뀌거나 하지는 않습니다.
  • Hessian . . . . 2 matches
         import java.net.MalformedURLException;
          public static void main(String[] args) throws MalformedURLException {
          String url = "http://localhost:8080/servlet/RpcTest";
          Basic basic = (Basic)factory.create(Basic.class, url);
  • JavaNetworkProgramming . . . . 2 matches
          *그외 URL프로토콜,IP멀티캐스트,DNS,방화벽,HTTP 프록시 서버,SOCKS,방화벽 내부의 DNS에 관해 간단한 설명 나옴
          *19장 : URL 클래스의 활용
  • MoinMoinDone . . . . 2 matches
          * Strip closing punctuation from URLs, so that e.g. (http://www.python.org) is recognized properly. Closing punctuation is characters like ":", ",", ".", ")", "?", "!". These are legal in URLs, but if they occur at the very end, you want to exclude them. The same if true for InterWiki links, like MeatBall:InterWiki.
  • MoniWikiPo . . . . 2 matches
         #: ../plugin/ImportUrl.php:105
         msgid "Import URL"
         msgid "TrackBack URL for this page:"
         "url; [url]; [url label].<br />\n"
         "url; [url]; [url 표시될 이름].<br />\n"
  • Plugin/Chrome/네이버사전 . . . . 2 matches
          img.src = constructImageURL(photo);
         // See: http://www.flickr.com/services/api/misc.urls.html
         function constructImageURL(photo) {
         function na_open_window(name, url, left, top, width, height, toolbar, menubar, statusbar,
          window.open(url, name, 'left='+left+',top='+top+',width='+width+',height='+height
  • XMLStudy_2002/Resource . . . . 2 matches
          *W3C XML 관련 URL
          || 명칭 || W3C URL ||
  • ZeroPageServer/BlockingUninvitedGuests . . . . 2 matches
          - 두가지 방법을 생각 해 볼 수가 있는데, 하나는 아이피 자체를 막는 방법과 특정 URL 의 접근을 막는 방법. (URL을 막는 방법이 가능한지는 모르겠다)
  • ZeroPage_200_OK . . . . 2 matches
          * 각자 자신의 Cloud9 IDE Dashboard에서 Workspace를 만들어 과제를 진행하고 URL을 공유합시다. 과제는 "메뉴 만들기"였는데 어떤 모습으로 구현해도 좋습니다!
          * 혹시 여전히 Cloud9 IDE이 동작하지 않으면 이번 내용은 클라이언트 구현만 있으므로 JSFiddle에 Save하고 URL을 링크하거나 [ZeroPage_200_OK/소스] 페이지에 올리셔도 됩니다.
  • html5/VA . . . . 2 matches
          * poster 로 동영상을 재생할 수 있을때까지 표시할 이미지 URL을 지정할 수 있다.
          * currentSrc - 실제로 읽어들여 재생 중인 미디어 데이터의 URL
  • html5/video&audio . . . . 2 matches
          * poster 로 동영상을 재생할 수 있을때까지 표시할 이미지 URL을 지정할 수 있다.
          * currentSrc - 실제로 읽어들여 재생 중인 미디어 데이터의 URL
  • html5/web-workers . . . . 2 matches
          * 워커 인터페이스 생성자에 JavaScript 소스 파일의 URL인수로 전달하면 소스파일을 내려받아 백그라운드에서 실행한다
          * 공유 워커는 윈도우가 달라도 URL과 이름이 같으면 같은 프로세스 공유
         http://cafe.naver.com/webappdev.cafe?iframe_url=/ArticleRead.nhn%3Farticleid=141&social=1
  • oracle . . . . 2 matches
         iSQL*Plus URL:
         iSQL*Plus DBA URL:
  • 권영기/web crawler . . . . 2 matches
         import urllib
         import urllib2
         req = urllib2.Request('http://9632024.tistory.com/974')
         try: urllib2.urlopen(req)
         except URLError, e:
         for line in urllib2.urlopen(req).readlines():
          * http://coreapython.hosting.paran.com/howto/HOWTO%20Fetch%20Internet%20Resources%20Using%20urllib2.htm
         === 소스에서 URL만 추출하기 ===
         import urllib
         import urllib2
         import urllib
         import urllib2
          urllib.urlretrieve(line,line.split('/')[-1])
          urllib.urlretrieve(url[, filename[, reporthook[, data]]])
          http://docs.python.org/library/urllib.html
          url = 'http://comic.naver.com/webtoon/detail.nhn?titleId=449854&no=' + str(i) + '&weekday=wed'
          prepare.readpage(url, str(i) + '.html')
  • ACM_ICPC/2013년스터디 . . . . 1 match
          * URL에 '가 들어가면 개고생.
  • APlusProject . . . . 1 match
         현재 이곳에 올려 놓는 자료는 모두 암호를 가지고 있습니다. SE 수업이 끝나면 모든 소스와 문서는 공개할 예정입니다. 혹시 파일 다운을 못받으신다면 '인터넷 익스플로어'에서 도구 -> 인터넷 옵션 -> 고급 -> 'URL을 항상 UTF-8로 보냄'의 체크를 없애고 재부팅 해야 다운 받으실 수 있습니다. (파일 이름의 한글이 문제입니다)
  • ASXMetafile . . . . 1 match
          * <Ref href = "path of the source" / >: Specifies a URL for a content stream.
  • AVG-GCC . . . . 1 match
         URL : http://www.gnu.org/software/gcc/bugs.html
  • AliasPageNames . . . . 1 match
         # 존재하는 페이지에는 인터위키(자매 페이지) 혹은 URL도 가능합니다.
  • CssMarket . . . . 1 match
         || CSS URL || 파일 ||평가||
  • Eclipse . . . . 1 match
         ["SWT"], ["Eclipse/PluginUrls"]
          * 외부 {{{~cpp JavaDoc}}} ''Preferences -> Java -> Installed JREs -> Javadoc URL''
  • EditPlus . . . . 1 match
         *보기- 도구모음- 일반툴 상태표시 화면글꼴-설정 URL강조 커서위치표시 눈금자 줄표시
  • EmbedAudioFilesForFireFox . . . . 1 match
          <param name="FileName" value="URL" />
  • FreechalAlbumSpider . . . . 1 match
          원리는 보통의 이런류의 프로그램 (HTTP 로 문서 가져오고 스트링 파싱하여 데이터로 가공하고 DB에 저장) 이 비슷합니다. 단, 앨범게시판의 경우 로그인이 필요한데, 이 경우 쿠키 처리를 위한 header setting을 해줘야겠죠. Perl 같은 경우 LWP, Python 의 경우 ClientCookie, Java 의 경우 HttpUnit(원래의 용도는 다르지만, 이런 프로그램을 위한 간이 브라우저 라이브러리로 쓸 수 있습니다.) 등의 라이브러리를 쓸 수 있습니다. 그리고, 이미지의 경우는 해당 URL을 보고 다시 HTTP Connection 을 열어서 얻어와서 binary로 저장해야 한다는 것이 유의사항이 되겠습니다. (HTML만 얻어오면 img tag 의 링크들만 있겠죠.) 그리고 header setting 에서 약간 미묘(?)한 부분이 있던것 같던데, 저는 걍 webdebug 로 캡쳐한거 그대로 보낸지라..; 이 부분은 CVS의 코드 참조하세요. --[1002]
  • Gnutella-MoreFree . . . . 1 match
         5. 참고 URL
  • HelpOnUserPreferences . . . . 1 match
          * '''[[GetText(User CSS URL)]]''': 자신이 원하는 CSS로 변경하고 싶을 경우에 사용합니다.
  • HolubOnPatterns/밑줄긋기 . . . . 1 match
          * 관점을 바꾸어 보면 {{{URLConnection은 InputStream}}} 구현체들을 생성하는 Abstract Factroy이기도 하다.
  • MoinMoinBugs . . . . 1 match
         -- BruceDurling
          * InterWiki links should either display the destination Wiki name or generate the A tag with a TITLE attribute so that (at least in IE) the full destination is displayed by floating the cursor over the link. At the moment, it's too hard to figure out where the link goes. With that many InterWiki destinations recognised, we can't expect everyone to be able to recognise the URL.
  • MoniWikiTutorial . . . . 1 match
          * URL창에 직접 페이지 이름을 넣는 방법도 있습니다.
  • ProjectPrometheus/BugReport . . . . 1 match
          * 서평을 썼을 때 URL이 자동 링크
          * CauLibUrlSearchObject - POST 로 넘기는 변수들
          * CauLibUrlViewObject - POST 로 넘기는 변수들.
  • ProjectPrometheus/Journey . . . . 1 match
          * HttpURLConnection 을 이용, HTML 문서 가져오기 Task
  • STLPort . . . . 1 match
         이외에도, 기본 런타임 라이브러리와 관련된 내용의 URL을 첨부하니, 참고하시기 바랍니다.
          * [http://msdn.microsoft.com/library/kor/default.asp?url=/library/KOR/vccore/html/LNK4098.asp 관련 MSDN 링크]
  • Spring/탐험스터디/wiki만들기 . . . . 1 match
          <sec:authorize url="/login">
          * url mapping 어떻게 하지?
          * PageTitle 받아서 검색하는 거 까지되었다!! 알고보니 어렵지 않은 문제였음, PathVariable로 url의 path 요소를 받을 수 있다.
          * url "/"에 Page내용 보기와 Page history의 내용 보기 두가지 기능을 매핑하려 했다.
          * RequestMappingHandlerMapping의 매핑 테이블을 보니 {[ URL ], methods=[ Method 타입 ], params=[],headers=[],consumes=[],produces=[],custom=[]}등으로 Request를 구분하고 있었다.
          * spring security에서 "/create" url에 authentication을 설정
  • Struts . . . . 1 match
          '''가다''' ㅇㅇㅇㅇ ---- [페이지명 또는 URL] [(카페명)] [[TableOfContents]] == 제목(2번째크기) == * 목|| 표-칸1 || 칸2||
  • UsenetMacro . . . . 1 match
          $url = $value;
          $url = 'http://groups-beta.google.com/group/'.$group;
          $url .= '/browse_thread/thread/'.$thread;
          $purl = parse_url($url);
          $fp = @fsockopen($purl['host'], 80, $errno, $errstr, 5);
          $out = "GET {$purl['path']} HTTP/1.0\nHost: {$purl['host']}\n\n";
          return '<!> URL is not found <!>';
          return sprintf('%s<a href="%s">%s</a>', $img, $url, $subj);
  • WOWAddOn/2011년프로젝트/초성퀴즈 . . . . 1 match
         import java.net.URLEncoder;
  • WeightsAndMeasures . . . . 1 match
          테스트 케이스가 필요하다면 꽁수가 있기는 하다. Java로 standard input으로 읽는 라인을 합쳐다가 모조리 특정 URL에 포스트 하도록 하는 코드를 만들어 업로드 한다. 그러면 심사때 사용하는 테스트 케이스를 알 수 있다. --JuNe
  • XMLStudy_2002/XML+CSS . . . . 1 match
          *다른 URL로 이동하는 예
  • 논문번역/2012년스터디/이민석 . . . . 1 match
         원문 URL: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.6.6413&rep=rep1&type=pdf
  • 시작 . . . . 1 match
          ''기울임'' '''굵게''' ''기울임'' ---- [페이지명 또는 URL] [(카페명)] [[TableOfContents]] == 제목(2번째크기) ==
  • 작은자바이야기 . . . . 1 match
          * url중에 '가 들어있어서 그런듯... - [서지혜]
         .setUrl("jdbc:mysql://zeropage.org:3306/test")
          * uri와 url의 비교
          * uniform resource identifier와 locatord의 약자. uri가 url보다 더 큰 개념이다.
          * map에서 자료를 가져와서 equals로 비교를 할 때 url은 실제로 가져온 내용이 같은지 비교하고 uri는 식별자가 같은지만 비교한다.
          * url의 equals는 비교를 하려면 자료를 가져와야 하기 때문에 성능의 낭비가 심하다. 따라서 실제로 자료가 같은지 비교해야 할 때에만 url을 사용하는 것이 좋다.
          * url과 uri는 서로 toURI, toURL을 지원한다.
          * uri의 기준이 url의 기준보다 더 엄격하다.
          * filter, servlet은 하나의 객체를 url에 매핑해서 여러 스레드에서 쓰이는 것임. 따라서 thread-safe 해야 한다.
  • 정모/2004.2.17 . . . . 1 match
          * URL 소개
  • 정모/2011.3.28 . . . . 1 match
          * ZeroWiki URL
  • 정모/2011.7.18 . . . . 1 match
          * 수요일에는 URL-Hunter를 구현.
  • 정모/2011.7.25 . . . . 1 match
          * URLHunter를 마무리지었습니다.
  • 졸업논문/서론 . . . . 1 match
         이 가운데 경량 프로그래밍 모델을 적용한 웹 기술이 계속 발전해가고 있다. 웹2.0 사이트는 Adobe Flash/Flex, CSS, 의미를 지닌 XHTML markup과 Microformats의 사용, RSS/Atom를 사용한 데이터 수집, 정확하고 의미있는 URLs, 블로그 출판들 같은 전형적인 기술을 포함한다.[2]
  • 현재 위키에 어떤 습관이 생기고 있는걸까? . . . . 1 match
          * URL이나 dos, unix 디렉토리 구조 같아서 친숙한 것 같다. 프로그래머나 컴퓨터 파워유저는 익숙한것 같지만, 한국말에는 어울리지 않는 것 같다. --NeoCoin
Found 71 matching pages out of 7540 total pages (5000 pages are searched)

You can also click here to search title.

Valid XHTML 1.0! Valid CSS! powered by MoniWiki
Processing time 0.3863 sec